1
知能最適化入門:WU-SCI1005
WU-SCI1005Lecture 1
00:00

最適化は、特定の制約条件下で定義された可能な領域内で、目的関数を最小化または最大化する「最良」の解を見つける数学的プロセスです。

古典的手法と知能的手法の比較

  • ニュートン・ラフソン法:2階微分(ヘッセ行列)を使用した反復的な根探査手法。
  • 勾配降下法:負の勾配に従って局所最小値へ移動する1次手法。
  • 進化的アルゴリズム(EAs):生物の自然選択にインスパイアされた確率的かつ集団ベースの探索手法。

重要な概念

次の2つの概念を明確に区別することが重要です:決定ベクトル(変更する変数)と目的関数(成功の指標)。

符号化の落とし穴
注意が必要なのは、消失勾配という微分に基づく手法と、バイナリ符号化された進化的アルゴリズムにおけるハミング崖という現象です。1つの十進数の増加(例:7から8)がすべてのビットを反転させる(0111から1000)必要になるため、「崖」となることで探索効率が低下します。これを緩和するにはグレイ符号化を使用してください。
Pythonによる実装:勾配降下法
質問1
なぜ凸最適化問題は非凸問題よりも「簡単」とされるのですか?
任意の局所最適解は、必ず全域最適解であることが保証されている。
微分の計算を必要としない。
集団ベースの確率的探索を利用する。
計算に必要なメモリが大幅に少ない。
質問2
進化的アルゴリズムの文脈において、「フェノタイプ」とは何を表しますか?
変数のバイナリまたはグレイ符号化。
解の実際の表現された特徴や性能。
ケーススタディ:三角形の面積最大化
以下のシナリオを読み、定式化に関する質問に答えてください。
斜辺の長さ $c$ が固定された直角三角形の面積を最大化する問題を考えます。
Q
1. 決定変数と目的関数を特定してください。
解答:
変数:2本の脚の長さ、$a$ と $b$。
目的関数:$Area = \frac{1}{2} \cdot a \cdot b$ を最大化する。
Q
2. 幾何学的性質に基づいた制約条件を述べてください。
解答:
ピタゴラスの定理に基づき、制約条件は:$a^2 + b^2 = c^2$ です。
Q
3. ニュートン・ラフソン法を使用する場合、2階偏微分を考慮するためにどのような行列を計算する必要がありますか?
解答:
ヘッセ行列 ($H$) であり、目的関数のすべての2階偏微分を含む。